人为决策的合作努力实现超出人类或人工智能表现的团队绩效。但是,许多因素都会影响人类团队的成功,包括用户的领域专业知识,AI系统的心理模型,对建议的信任等等。这项工作检查了用户与三种模拟算法模型的互动,所有这些模型都具有相似的精度,但对其真正的正面和真实负率进行了不同的调整。我们的研究检查了在非平凡的血管标签任务中的用户性能,参与者表明给定的血管是流动还是停滞。我们的结果表明,虽然AI-Assistant的建议可以帮助用户决策,但用户相对于AI的基线性能和AI错误类型的补充调整等因素会显着影响整体团队的整体绩效。新手用户有所改善,但不能达到AI的准确性。高度熟练的用户通常能够识别何时应遵循AI建议,并通常保持或提高其性能。与AI相似的准确性水平的表演者在AI建议方面是最大的变化。此外,我们发现用户对AI的性能亲戚的看法也对给出AI建议时的准确性是否有所提高产生重大影响。这项工作提供了有关与人类协作有关的因素的复杂性的见解,并提供了有关如何开发以人为中心的AI算法来补充用户在决策任务中的建议。
translated by 谷歌翻译
分割模型在医疗域中的可靠性取决于模型对输入空间中扰动的鲁棒性。鲁棒性是在医学成像中的特殊挑战,展示了各种图像噪声,腐败和域转移的来源。通常通过模拟异质环境来尝试获得鲁棒性,要么以数据增强的形式进行启发,要么通过学习以对抗性方式产生特定的扰动。我们提出并证明在低维嵌入空间中学习离散表示可以改善分割模型的鲁棒性。这是通过称为矢量定量的字典学习方法来实现的。我们使用一组设计的实验来分析域移位和输入空间中的噪声扰动下的潜在和输出空间的鲁棒性。我们适应流行的UNET架构,在瓶颈中插入一个定量块。我们证明了在三个分割任务上的分段准确性和更好的鲁棒性。代码可在\ url {https://github.com/ainkaransanthi/vector-quantisation-for-robust-mentegation}中获得。
translated by 谷歌翻译
当前的大多数解释性技术都集中在捕获输入空间中特征的重要性。但是,鉴于模型和数据生成过程的复杂性,由此产生的解释远非“完整”,因为它们缺乏特征相互作用和可视化其“效应”的指示。在这项工作中,我们提出了一个新颖的双流式解释性框架,以解释任何基于CNN的图像分类器(架构不考虑)做出的决定。为此,我们首先将潜在特征从分类器中解开,然后将这些功能与观察到的/人为定义的“上下文”功能保持一致。这些对齐特征形成了具有语义上有意义的概念,用于提取描述“感知”数据生成过程的因果图,描述了未观察到的潜在特征和观察到的“上下文”特征之间的功能间和内部内部和内部内部相互作用。该因果图是一个全局模型,可以从中提取不同形式的局部解释。具体而言,我们提供了一个生成器来可视化潜在空间中特征之间交互的“效果”,并从其作为局部解释中提取特征的重要性。我们的框架利用对抗性知识蒸馏来忠实地从分类器的潜在空间中学习表示形式,并将其用于提取视觉解释。我们使用带有附加正规化术语的stylegan-v2体系结构来执行分解和对齐。我们证明并评估了通过关于Morpho-Mnist和FFHQ人脸数据集获得的解释。我们的框架可在\ url {https://github.com/koriavinash1/glance-explanations}上获得。
translated by 谷歌翻译
\ emph {black-box}模型的说明有助于我们了解模型决策,并提供有关模型偏见和不一致之处的信息。当前的大多数解释性技术通常就特征重要性得分或输入空间中的特征注意图提供了单一的解释。我们的重点是从细粒度到完全抽象的解释中解释\ emph {多个级别的抽象}处的深层歧视模型。我们通过使用\ emph {双曲几何}的自然特性来更有效地对符号特征的层次结构进行建模,并生成\ emph {层次结构符号规则}作为解释的一部分。具体而言,对于任何给定的深层歧视模型,我们通过使用矢量定量对连续的潜在空间的离散化来提炼基础知识,以形成符号,然后是\ emph {双曲线推理块},以诱导\ emph {抽象{抽象树}。我们遍历树以根据符号规则及其相应的视觉语义提取解释。我们证明了我们方法对MNIST和AFHQ高分辨率动物面孔数据集的有效性。我们的框架可在\ url {https://github.com/koriavinash1/symbolicinterpretability}中获得。
translated by 谷歌翻译